← 返回文档索引

故事慧分布式智能体集群架构白皮书 (v1.0)

代号: 数字朝廷 (Digital Court)
版本: 1.0
日期: 2026-03-14
制定者: 一龙 (故事慧总运营)
适用范围: 故事慧所有内容创作、审核、发布及多服务器协同场景


1. 核心架构哲学

本架构借鉴中国古代“三省六部制”与现代化“EDICT 协同编辑”理念,构建一个去中心化执行、中心化协调、多模型制衡的智能体集群。

1.1 角色映射

角色 隐喻 职责 部署位置 推荐模型
总控智能体 皇上 统筹全局、任务分发、争议裁决、最终决策 美国主节点 (45.207.206.44) Qwen-3.5-397B (逻辑最强)
节点总督 太子 领地内任务执行、资源调度、状态汇报 各从属服务器 (火山/腾讯/本地) 根据节点算力分配
中书省 起草组 内容初稿创作、资料搜集、大纲拟定 动态分配 Qwen / DeepSeek-V3
门下省 审核组 事实核查、逻辑挑刺、合规审查、多视角辩论 动态分配 GLM-4.5 / MiniMax / Gemini
尚书省 执行组 排版、多模态转换 (音/视频)、多平台分发 动态分配 专用小模型 + 工具链
六部 技能组 资料部 (RAG)、修辞部 (Humanizer)、数据部 (Chart) 等 共享服务 专用 Skill

1.2 核心优势

  1. 制衡机制:通过“中书起草、门下审核”的对抗性生成,消除单一模型幻觉。
  2. 上下文管理:基于文档状态的协同 (EDICT),避免长上下文溢出,保留完整思维链。
  3. 弹性扩展:新增服务器只需注册为“节点”,即可纳入集群调度。
  4. 透明可溯:所有修改、辩论、决策过程均记录在文档元数据中,真人可随时介入。

2. 多服务器协作机制

2.1 网络拓扑

采用 **Hub-and-Spoke **(中心辐射) 架构:

2.2 通信协议

  1. **指令下发 **(Downlink):
    • 总控通过 OpenClaw sessions_spawn (SSH 隧道或 HTTP 回调) 向节点发送任务包 (JSON)。
    • 任务包包含:task_id, prompt, role (如中书省), context_files
  2. **状态汇报 **(Uplink):
    • 节点完成任务后,将结果 (Markdown 文档 + 元数据) 写入共享存储或回传主节点。
    • 异常情况下触发“八百里加急” (飞书告警)。
  3. 心跳保活:
    • 节点每 5 分钟向主节点发送心跳,报告负载 (CPU/Token 消耗/在线状态)。

2.3 容灾与故障转移


3. EDICT 协同创作流程 (三省六部制)

以创作《慧镜鉴世》板块文章为例:

3.1 阶段一:拟旨 (任务启动)

3.2 阶段二:起草 (中书省)

3.3 阶段三:会审 (门下省 - 核心创新)

3.4 阶段四:修订与公示

3.5 阶段五:执行 (尚书省)


4. 模型分配与调度策略

4.1 动态路由表

总控维护一张动态路由表,根据任务类型分配模型:

任务类型 主模型 辅助模型 理由
宏大叙事/创作 Qwen-3.5-397B DeepSeek-V3 Qwen 逻辑强,DeepSeek 文采好
事实核查/挑刺 GLM-4.5 MiniMax 擅长逻辑漏洞查找
多模态/翻译 Gemini-2.0 Qwen-VL 原生多模态能力强
快速响应/简单任务 Ollama (Local) - 本地低延迟,节省 Token

4.2 负载均衡


5. 安全机制

5.1 配置安全 (制度 001)

5.2 数据安全

5.3 内容安全


6. 飞书多服务器集成方案

6.1 核心挑战

飞书机器人与飞书应用是一对一绑定的。若要在同一飞书组织内管理多台服务器,需解决“单点接入”问题。

6.2 解决方案:多实例 + 统一入口

**方案 A:多 AppID 集群 **(推荐,隔离性好)

  1. 创建多个飞书应用: 在飞书开发者后台为每台服务器创建独立应用 (AppID/Secret)。
    • StoryHui-US (美国节点)
    • StoryHui-Huo (火山节点)
    • StoryHui-Local (本地点)
  2. 配置独立机器人: 每个应用对应一个机器人,加入同一个飞书群。
  3. 任务分发逻辑:
    • 用户在群里 @StoryHui-US 提问 -> 美国节点响应。
    • 用户 @StoryHui-Huo -> 火山节点响应。
    • 总控协调: 美国节点作为“总入口”,解析复杂指令,若有需要,通过内部协议调度其他节点,并将结果汇总回复。

**方案 B:网关聚合 **(高级,体验统一)

  1. 单一入口: 只部署一个飞书机器人 (如在美国节点)。
  2. 内部路由: 该节点接收所有消息,根据负载或指令内容,内部转发给其他服务器处理。
  3. 优势: 用户无感知,只需面对一个机器人。
  4. 劣势: 单点故障风险,需确保美国节点高可用。

6.3 实施步骤 (以方案 A 为例)

  1. 创建应用: 在飞书开发者平台创建 3 个应用,获取 AppIDAppSecret
  2. 配置权限: 为每个应用配置相同的权限 (消息发送/接收、群组权限等)。
  3. 部署配置: 在各服务器 openclaw.json 或独立配置文件中填入对应的 AppID/Secret
  4. 群组集成: 将 3 个机器人全部拉入“故事慧创作群”。
  5. 指令规范:
    • @US 创作一篇关于...
    • @Huo 审核这篇文章...
    • @All 开始朝议... (触发群聊模式)

7. 实施路线图

第一阶段:基建搭建 (T+1 周)

第二阶段:单点演练 (T+2 周)

第三阶段:集群联调 (T+3 周)

第四阶段:正式运营 (T+4 周)


8. 附录:配置模板

8.1 标准文档模板 (Markdown)

---
id: task_001
title: 示例标题
status: drafting # drafting, reviewing, approved, published
author: agent-zhongshu
created_at: 2026-03-14T23:00:00Z
---

# 正文

这里是内容...

<!-- COMMENT by="agent-menxia" type="suggestion" -->
> 建议修改...
<!-- END_COMMENT -->

8.2 飞书配置示例 (openclaw.json)

"channels": {
  "feishu": {
    "enabled": true,
    "appId": "cli_a92f2ec64b38dbc4", // 当前节点 AppID
    "appSecret": "...",
    "connectionMode": "websocket"
  }
}

备注: 本方案为故事慧技术运营的顶层设计方案,后续所有技术开发与流程优化均需遵循此白皮书。

目录